約 3,865,112 件
https://w.atwiki.jp/ledpj/pages/56.html
Team HDfury 3DFury ■公式サイト(たぶん……) http //3dfury.com/ ■特徴(公式サイト本文を意訳) いつでも何処でも2D/3Dコンテンツを見よう! 任意のテレビ、モニター、プロジェクタに3D映像を追加! デュアルプロジェクタ、アナログモニタとデジタルモニタにも対応! ■その他 3Dメガネは同梱されていないため、別途購入する必要がある。 3DメガネはDLP-LINK対応品の他に、専用のRFエミッタおよび3Dメガネが対応。当然だが、専用品の方がより良い3D映像を楽しめる、らしい。 ※訳注 この製品は3D信号の変換の他に、HDMIなどのデジタル信号をVGA(やコンポーネント等のアナログ信号)に 直接変換することもできます。 名前 コメント すべてのコメントを見る
https://w.atwiki.jp/ledpj/pages/54.html
Optoma 3D-XL ■公式サイト http //www.optoma.eu/projectordetailshccs.aspx?ShowMenu=HE&PTypedb=Home%20Entertainment&PC=3D-XL ■特徴(公式サイト本文を意訳) 等身大の3D映像を自宅で体験できるようになりました! 世界初の3Dプロジェクタ用アダプタ、Optoma 3D-XLは既存のDLP(R)プロジェクタを3D表示できるようにします。 英国のSky 3Dなどの3D放送信号や3DのBlu-ray、PS3に対応。 3D-XLは、単純に3Dのソース(チューナーやプレイヤー、PS3)とDLPプロジェクタの間に接続するだけ。 3Dテレビの小さな画面では不可能な没入感を、3Dテレビの数分の一のコストで提供します。 ■その他 DLP-LINK対応3Dメガネが1つ同梱されている。 Acer K330 + HDFury3 + 3D-XL + PS3で3D視聴(ゲーム、3DBD)できました。試したのは初音ミクのドリーミングシアター2、モンハン3HD、3DBD(モンスターハウス3D)です。 -- (名無しさん) 2012-08-09 10 25 59 ↑追記:仕組みがよくわかってないですが、HDFury3のL/Rスイッチをどちらかに設定しないと3D画面がちらついて見れません。スプリング式で押し続けないとニュートラル(中央)に戻ってしまうので自分は輪ゴムでL側に固定してます。誰か解決策あれば教えてください。 -- (名無しさん) 2012-08-09 10 30 07 HDFury3のL/Rスイッチはセンタリング自動補正だから押し続ける必要はない。 3D enabler EDID for HDfury3当ててね。 参考urlは以下。 http //www.hdwat.com/viewtopic.php?f=36&t=25259 http //www.hdwat.com/viewtopic.php?f=32&t=23561 -- (ledpj) 2012-08-12 07 54 38 名前 コメント すべてのコメントを見る
https://w.atwiki.jp/ledpj/pages/36.html
メーカー名 プロジェクタ名 ■公式サイト http // ■スペック 輝度 00lm ネイティブ解像度 1280 x 800 コントラスト比 00 1 パネルタイプ DLP 画面サイズ 0~0インチ 投射距離 ~m( 1) アスペクト比 16 10、4 3、16 9 騒音レベル 通常 dB エコ dB 消費電力 通常 W エコ -W 使用時間 約 時間 充電時間 約 時間 台形補正 ±度 天吊り 本体サイズ (W) x (H) x (D) mm 本体重量 約 g ■長所 ■短所 ■その他 名前 コメント すべてのコメントを見る
https://w.atwiki.jp/arprojectfun/pages/15.html
Mixed Reality Interface Project 1.課題の目的 私たちの日常接している現実空間と映画やゲームの仮想空間を融合させて、SFチックな世界観を実現させたい。このような拡張現実感を用いた技術はすでにARToolkitやiPhoneアプリであるセカイカメラなどがすでにあり、身近な技術として確立してきている。しかし、これらには限られた環境でしか実現することは出来ない。 そこで私たちはまず、「未来大のキャンパスにあり得ないものを建てたい。未来大のキャンパスにいろんな物や空間を持って来たい。」ということを目標にした。本プロジェクトではそれらを実現する為のインターフェイスを開発する。 2.方法 具体的には、GPSの位置情報と3軸センサーによる情報から、特定の空間に仮想空間を写像し、物体や空間が存在するかのように見せるというものだ。観測物を仮想空間上に表示し、観測物の現実空間での座標と、観測者の現実空間での座標をGPSを使って計算する。また、その2点間の距離や位置関係、注視点の方向から仮想空間上での視野を作成する。最後に、作成した視野と現実空間の映像を合成する。 観測者が身につける物として、ヘッドマウントディスプレイ、カメラ、GPS、3軸センサを組み合わせる。作成した映像を観測者が身に付けているヘッドマウントディスプレイに表示させることによって、擬似的にその空間に物体がある様に見せることが出来る。目標の観測は2km~5m位までの距離を想定する。 以上を目標とし本プロジェクトではこのようなソフトウェアとハードウェアのインターフェイスを作成する。 メモ 拡張現実感を利用したインターフェイスを開発する。仮想空間上に大きなもの(例えば東京タワー)などを表示させて、カメラで撮った実世界上に写像する。目標としては、半径2km位から5m位までの距離を想定し、実際にそこに有るかのように見せる事が出来るようにする。 コメントどうぞ コメントテスト -- こだま (2010-02-13 19 42 01) Mixed Reality Interface Projectは略するとMRIPです。むりぽ。 -- 鳩音 (2010-02-13 19 59 09) 名前 コメント
https://w.atwiki.jp/abiotic_factor/pages/238.html
アイテム名 プロジェクション・マトリクス カテゴリ 資材と素材 重量 1 スタック数 32 入手方法 クラフト レシピ アンテバース・ジェムx1,光学レンズx1,ステープラーx4 分解 - 極めて強力なビームプロジェクター。クラフトに使用可能。 利用レシピ クラフト メモリーブリック キーパッドハッカー(ランク3) ライトニングスピア チャージシールド レーザーエミッター レーザープリズム レーザーコレクター X線タワー 入手方法 プロジェクション・マトリクスは、クラフトによってのみ入手可能。 x1 x1 → x1 x2
https://w.atwiki.jp/ledpj/pages/37.html
メーカー名 プロジェクタ名 ■公式サイト http // ■スペック 輝度 00lm ネイティブ解像度 1280 x 800 コントラスト比 00 1 パネルタイプ DLP 画面サイズ 0~0インチ 投射距離 ~m( 1) アスペクト比 16 10、4 3、16 9 騒音レベル 通常 dB エコ dB 消費電力 通常 W エコ -W 台形補正 ±度 天吊り 本体サイズ (W) x (H) x (D) mm 本体重量 約 g ■長所 ■短所 ■その他 名前 コメント すべてのコメントを見る
https://w.atwiki.jp/testlink/pages/99.html
現在主な活動は 公式サイトtestlinkjp.org,sourceforge.jp(ソース・プロジェクト管理),@Wiki(移転中)のサイトと「TestLink日本語化部会ML(tef-testlink@blues.se.uec.ac.jp)」で行っております。 SourceForge.jpでのアカウント取得とプロジェクト参加連絡 こちらでアカウントを取得して https //sourceforge.jp/ こちらまで連絡お願いします。 https //sourceforge.jp/users/garyo/ ※本Wikiに登録するために希望する「ID」「PASSWORD」を一緒に連絡願います(半角英数のみでお願いします)。 ※メーリングリスト登録用に○○@users.sourceforge.jp以外の普段使うメールアドレスを連絡願います。 (メーリングリストは登録したメールアドレスからしか投稿できないため) プロジェクト参加手続き 連絡を頂き次第プロジェクトへの参加手続きを行います。 sourceforge.jpと本Wikiへのメンバー登録及びTestLink日本語化部会MLへの追加 ※TestLink日本語化部会MLへの追加は手続き上遅くなる可能性がありますのでご了承願います。 TestLinkJp公式サイトにユーザー登録をお願いします。 http //testlinkjp.org/register.php TestLink日本語版ユーザーズMLに登録願います。 http //lists.sourceforge.jp/mailman/listinfo/testlinkjp-users プロジェクト参加後「初めまして」のフォーラムで自己紹介頂けると嬉しいです。 活動内容等の確認 以下を読んでおいてください。 活動日誌 活動内容 プロジェクトメンバーオンリー
https://w.atwiki.jp/universityproject/pages/5.html
プロジェクトの参加方法について 1. 参加してみたいという希望を管理人宛てにメールでご連絡頂きます。 返信の際に、サーバーのIPアドレスをお送りいたします。 その際にRedPower2の利用の有無を確認いたします。 プロジェクトの作成はヴァニラ状態でも構いませんが、構造物の規模が大きくなりかねないため管理側といたしましてはModの導入をお勧めいたします。 ※Modの導入に関しては参加者の方々の自己責任とさせて頂きます。導入が出来ないという趣旨のメールは受け付けておりませんのであしからず・・・ 2. マルチサーバーにアクセス頂きプロジェクトの作成をして頂きます。 大きさの規模は問いませんが、あくまで大学構内の作成だけとさせて頂きます。 このような流れになるわけですが、2012/12/31時点でバージョン1.4.6用のbukkitサーバーへのMod対応が出来ておらず、ひとまずみなさんには次のような手順をとって頂きます。 pre1. 1の項目を参照願います。(IPアドレスはお教えいたしません) pre2. シングルもしくはマルチを用いてワールドおよびプロジェクトの作成をお願いいたします。 pre3. サーバーへのMod対応ができ次第、スカイプなどを利用しワールドデータを送って頂きます。(ここでIPアドレスをお送りいたします) pre4. 送って頂いたワールドデータをプロジェクトサーバーに反映させた後、サーバーへアクセス頂き、引き続き作成を続けて頂きます。 現状はこのような形を取らせて頂きます。 お手数をお掛けしますが、よろしくお願い致します。
https://w.atwiki.jp/arprojectfun/pages/62.html
プロジェクトの将来の展望 このプロジェクトが上手く行ったら、その成果は将来どのようなことにつながってゆくのかと言う議論 プロジェクトの成果のみを利用したものという縛りではなく、この成果を踏まえて何が出来上がっていくかというテーマで議論した。 出た意見は以下にざっとまとめる。 世界上の特定の1点に(特定の相手に向かった)メッセージが残せる伝言板砕けて言うとセカイカメラの正確版。どこにメッセージがあるのかはっきりとわかる 複数の人と同一の拡張空間を共有出来る実空間上でボンバーマンが出来るんじゃないかと言う意見 AR名札顔認識してその上に名前などの表示 ARマニュアル作業の指示、作業に向かう場所などをARで表示先生からもらったジャーナルに乗ってた記事が元 場所を問わない空間の共有こっちで動かした仮想空間上の物体が、その空間を共有する他の場所でも動く 東京と函館をそっくりそのまま入れ替える、など マップ上と空間をつなげる地図上で指し示した場所が実空間に投影されるシステム 論議で挙げられたのはこのあたり。 プロジェクトがうまく行けば世界上のただ一点を正確に記録・(ARで)再生出来るということはなかなか応用範囲が広そうな気がする。
https://w.atwiki.jp/dangan_project/pages/15.html
はじめに 「ダンガンロンパプロジェクト」とは、Twitter上に存在する『ダンガンロンパ』シリーズ関連非公式なりきりアカウント様達を動画や一つのイベント、イラストにしていこうというプロジェクトです。 概要 2014年2月中旬から本格的活動を始めます。 只今のスタッフは「 1人 」で運営しております。